#Anthropic CEO
Anthropic CEO獨家專訪, 回應川普及五角大廈合作衝突
城主說 | 一直對Anthropic的CEO Dario Amodei 對中國的偏見頗有微詞, 但這一次, 在OpenAI, Google 光速滑跪的情況下, Amodei能頂著懂王的大棒, 拒絕五角大廈要求, 堅持原則死扛, 確實讓人刮目相看, 必須說他確實有自己原則.這是今天ABC的最新專訪, 我看Amodei臉色都不好了, 畢竟這壓力肯定山大, 以下是本城對訪談的全文整理.願世界和平.Anthropic首席執行長Dario Amodei今天就公司與美國國防部之間的合作僵局接受了深度訪談。Amodei堅持認為,保衛國家不應以犧牲核心價值觀為代價,而這種堅持正讓 Anthropic 面臨前所未有的政治與法律壓力。Dario Amadei闡述了公司在國家安全合作中堅持的兩大紅線:反對國內大規模監控和全自動武器。訪談還涉及了政府發出的供應鏈風險警告、最後通牒的性質、私營企業在技術倫理中的角色,以及法律滯後於 AI 發展等核心議題。核心觀點:“我們同意五角大廈 99% 的用例,但在事關民主價值觀的 1% 極端場景上,我們必須劃定紅線。”“國內大規模監控在 AI 時代已走在法律前面,技術的發展速度讓現行監管體系顯得力不從心。”“當今 AI 系統存在根本的不可預測性,在解決可靠性問題前,部署全自主武器是不負責任的。”“政府將一家美國公司指定為‘供應鏈風險’是前所未有的報復性行為,這通常只針對外國敵對勢力。”“反對政府的不當擴張是‘最美國化’的行為,愛國主義並不意味著盲目服從權力,而是捍衛原則。”“AI 計算量每四個月翻一番,這種指數級增長要求國會必須盡快建立符合時代需求的安全護欄。”九十九比一的博弈:在安全與紅線之間平衡在Amodei的敘事中,Anthropic 並非外界傳聞中的“反政府者”,相反,它是與美國國家安全機構合作最積極的 AI 公司之一。Amodei透露,Anthropic 是首家將模型部署到機密環境、並為情報部門定製模型的企業。然而,這種深度合作在兩個具體領域戛然而止:國內大規模監控與全自動武器系統。“我們必須以捍衛民主價值觀的方式來保衛國家,” Amodei強調。他指出,AI 的強大分析能力正使“合法但不合理”的監控成為可能,例如政府購買私人資料並通過 AI 進行大規模畫像。而在武器化方面,他堅持認為 AI 尚未達到支撐全自主作戰的可靠性水平。“任何與 AI 模型打過交道的人都明白,它們存在一種基本的不可預測性。” 這種技術上的不成熟,結合缺乏人類問責機制的風險,構成了 Anthropic 堅守的紅線。最後通牒與“懲罰性”的供應鏈指定訪談揭示了 Anthropic 與五角大廈談判破裂的驚人細節。Amodei描述了一個充滿火藥味的過程:政府給出了為期三天的最後通牒,要求公司放棄紅線,否則將被指定為“供應鏈風險”。儘管 Anthropic 試圖提供折中方案,並承諾在脫離過程中保證服務連續性,但五角大廈並未在實質性條款上做出任何讓步。令Amodei感到憤慨的是政府採取的後續手段。川普政府通過社交媒體宣佈 Anthropic 為供應鏈風險,並威脅動用《國防生產法》。Amodei直言不諱地指出:“這種指定從未應用於一家美國公司,它通常針對的是像卡巴斯基或中國晶片商那樣的對手。” 他認為這種將愛國企業與外國間諜軟體歸為一類的做法,是完全的報復性和懲罰性行為,旨在通過製造恐懼和不確定性來打壓私營企業的獨立意志。技術指數級增長下的法律真空為何一家私營公司的 CEO 要承擔起定義國家安全邊界的角色?Amodei將此歸咎於法律的嚴重滯後。他指出,AI 的發展遵循著驚人的指數定律,計算量每四個月就翻一倍,而國會和司法解釋仍停留在舊時代。“國會不是世界上動作最快的機構,而我們這些人在前線看到了這項技術的真實威力,” Amodei說道。他認為,雖然長期來看,制定規則應是國會的職責,但在法律“追趕”技術之前,技術開發者有義務劃清界限。他呼籲建立一種新的“民主對話”,探討如何在不削弱對抗威權對手能力的前提下,防止政府濫用技術權力。他堅持認為,這不僅是技術問題,更是維護《第四修正案》精神的憲法問題。“最美國化”的抗爭:重塑愛國主義敘事面對“覺醒(Woke)”或“左翼意識形態驅動”的指責,Amodei表現得異常冷靜。他拒絕捲入黨派政治,強調 Anthropic 的立場基於專業知識和中立原則。他提到自己曾與多位不同政見的政要合作解決能源和醫療問題,試圖證明公司的決策並非出於政治偏見。在訪談的最後,Amodei重申了他的身份認同:“我們是愛國的美國人,我們所做的一切都是為了支援美國國家安全。” 但他同時賦予了愛國主義更深層的含義:即行使憲法賦予的權利,公開發言並反對政府的過度擴張。他堅稱。對於 Anthropic 而言,堅守那 1% 的紅線,正是為了確保在贏得 AI 競賽後,美國依然是那個值得保衛的民主國家。儘管面臨法律挑戰和政治壓力,Amodei表示公司已做好在法庭上捍衛權益的準備,並對挺過這場危機充滿信心。Web3天空之城全文整理 合作背景與兩大紅線主持人: 感謝您抽出時間。您是Anthropic的首席執行長達里歐·Amodei,我的第一個問題是,為什麼您不無限制地向美國發佈Anthropic的人工智慧系統?Amodei: 是的。我想我們應該稍微回溯一下,提供一些背景資訊。Anthropic實際上是所有人工智慧公司中與美國政府合作最為積極進取的。與美國政府合作。我們是第一家將我們的模型部署到機密環境中的公司,我們是第一家為國家安全目的定製模型的公司。我們已經部署在情報部門和軍隊中,用於網路安全、作戰支援行動、各種此類應用。而且,我們之所以這樣做,是因為我相信我們必須保衛我們的國家。我相信我們必須保衛我們的國家,使其免受對手的侵害。因此,我們一直非常積極進取。我們有一個相當大的公共部門團隊。但是,我一直認為,當我們保衛自己免受專制對手的侵害時,我們必須以捍衛我們民主價值觀和維護我們民主價值觀的方式來進行。因此,我們告訴國防部,我們同意他們基本上想要的98%或99%的所有用例,除了我們關注的兩個用例之外。其中一個是用例是國內大規模監控。在那裡,我們擔心的是,人工智慧可能會實現以前不可能實現的事情。一個例子是,比如將私營公司收集的資料,由政府購買,並通過人工智慧進行大規模分析。這實際上並不違法。只是在人工智慧時代之前,它從未有用武之地。因此,國內大規模監控在某種程度上已經走在了法律前面。技術發展得太快,已經跟不上法律的步伐了。這是第一種情況。案例二,是全自主武器系統。這不是目前在烏克蘭使用的或部分自主武器。這是指那些無需任何人為干預即可發射的武器。現在,即使這些武器,我認為,那些,我們的對手,可能在某個時候會擁有它們,所以或許,它們在某個時候可能對維護民主是必需的。但我們對它們存有一些擔憂。首先,當今的人工智慧系統遠未達到製造全自主武器所需的可靠程度。任何與人工智慧模型打過交道的人都明白,它們存在一種基本的不可預測性,而這在純粹的技術層面上我們尚未解決。而且還有一個監管問題。如果你擁有一大批無人機或機器人,它們可以在沒有任何人工監督的情況下運行,沒有人類士兵來決定目標是誰、向誰開火,這會引發擔憂。我們需要就如何監督這些系統展開對話。而我們還沒有進行那次談話。談判僵局與最後通牒主持人: 因此,我們堅信,那兩種用例不應該被允許。五角大廈告訴我們,他們原則上同意了這兩項限制。他們想達成一項協議。為什麼沒能達成協議呢?Amodei: 這個過程有幾個階段,都是快速完成的,而且都是由他們給我們的那種非常有限的三天的時間窗口所決定的,他們給了我們一個最後通牒,要求我們在三天內同意他們的條款,否則,就會被指定為供應鏈風險或受到《國防生產法》的制約。我想我們稍後會談到那個。但在那段時間裡,雙方進行了幾次針鋒相對的交鋒。有一次他們發給我們的措辭,從表面上看似乎符合我們的條款,但其中包含各種措辭,比如“如果五角大廈認為合適”,或者,“為了做任何與法律一致的事情”。所以它實際上並沒有在任何方面,在任何有意義的方面做出讓步。它的後續步驟也都沒有在任何有意義的方面做出讓步。我們從一開始就想達成一項協議。如果你想瞭解五角大廈的立場,五角大廈發言人肖恩·帕內爾在前一天重申了他們的立場:我們只允許所有合法使用。這和他們給我們發來條款時一樣。所以他們沒有超出,也沒有以任何方式同意我們政府的(條款)。在任何有意義的方面都沒有例外。面對指控與連續性保障主持人: 總統今天對這種情況發表了回應,稱他們的自私自利,指的是Anthropic,正在危及美國人民的生命,使我們的軍隊處於危險之中,並使我們的國家安全陷入危險境地。你認為呢?你的回應是什麼?Amodei: 在我們昨天發佈的聲明以及我們今天發佈的聲明中,我們都表示,即使戰爭部,甚至即使是川普政府,對我們採取這些前所未有的措施,這種通常針對外國對手的供應鏈指定,我們也願意接受。我們說過,即使他們採取這些極端行動,我們也會盡一切努力支援戰爭部,提供我們的技術,直到我們完全脫離並讓願意做我們不願意做的事情的競爭對手接手為止。準備退出。所以我們已經提供了連續性保障。我們實際上深感擔憂。我們深切關注服務中斷問題,這正是當我們被指定為供應鏈風險時所發生的情況。當我們被指定為供應鏈風險時,他們會說,你必須從我們所有的系統中移除。我與一線人員、軍官交談過,他們說這是至關重要的。沒有這個,我們會倒退六個月、十二個月,甚至更久,所以我們才如此努力地嘗試達成協議。但再說一次,三天的最後通牒,將我們指定為供應鏈風險的風險,整個時間表都是由戰爭部推動的,而不是由我們推動的。我們正努力提供連續性。我們正努力提供服務。我們正努力提供它。我們正努力達成一項協議。主持人: 那麼這對美國人的安全意味著什麼呢?我想說幾點。Amodei: 短期來看,這意味著,這取決於戰爭部。我們仍在努力達成,我們仍在努力與他們達成一項協議。你們在談嗎?他們在和你們談嗎?我們收到了各種資訊。我們沒有看到任何,能夠滿足我們的,我們沒有看到任何能夠滿足我們關切的(東西)。但是,我指的是在廣義上,只要符合我們的底線,我們仍然有興趣與他們合作。主持人: 但聽起來你們的立場仍然相去甚遠,現在海塞斯(Hegeseth)部長已經認定你們對供應鏈構成風險,並行表了他的看法。那麼,你認為在現階段達成協議是否可能?Amodei: 我看看,協議需要雙方。我們這邊,願意為這個國家的國家安全服務。我們願意在已提供的條款下,在我們設定的紅線內,向政府所有部門提供我們的模型,包括戰爭部、情報部門,以及政府中更偏向民用的部門。我們一直都願意這樣做,我們不會因此感到冒犯。我們以這種方式提供技術的原因是我們希望支援,美國的國家安全。我們這樣做不是,僅僅是為了五角大廈的官員。我們這麼做不是為了某個特定的政府當局。我們這麼做是因為這對美國的國家安全有益。對美國而言,我們將繼續這樣做。私營企業權力與法律滯後主持人: 你為什麼認為讓像Anthropic這樣的私營公司在人工智慧的軍事用途上擁有比五角大廈更大的發言權更好呢?Amodei: 我首先想說的是,我認為這一點很重要。據我們所知,在實地操作中,沒有人真正遇到了任何這些例外的限制。這些,抱歉,這些只佔使用案例的1%,而且我們沒有證據表明它們在實地已經發生。現在,我再說一遍,我不能說他們的計畫是什麼,我們不知道。但我們沒有證據表明這些用例實際上遇到了麻煩。我們已經推廣到戰爭部和其他政府部門,而沒有遇到任何這些問題。現在,就這一個或兩個狹隘的例外情況而言,我確實認為從長遠來看,我們需要進行一場民主的對話。從長遠來看,我確實相信這是國會的職責所在。例如,如果存在國內大規模監控的可能性,政府購買美國人產生的海量資料,涉及位置、個人資訊、政治傾向,以建立個人檔案。而現在可以用人工智慧來分析這些資料。事實是,這在法律上是允許的,這似乎表明,對《第四修正案》的司法解釋還沒有跟上,或者國會通過的法律還沒有跟上。因此,從長遠來看,我們認為國會應該跟上技術發展的步伐。但是國會不是世界上動作最快的機構。而就目前而言,是我們這些人在前線看到這項技術。我期望戰爭部,我期望他們對這些問題進行深思熟慮,以便,主動地,思考這些問題。因此,我本以為他們不會有任何擔憂。然後,我們進行一場對話。但在沒有這種(明確指導)的情況下,我認為我們需要關注技術本身。我們需要考察它在可靠性方面的能力。我們需要審視它超越法律的途徑,以及它規避法律意圖的方式。這些是一些非常具體的領域,但我認為它們很重要。這些是美國人認為根本性的事情,不被政府監視的權利,我們的軍官能夠自己做出戰爭決策,而不是完全將其交由機器決定的權利。這些是根本性的原則。主持人: 但是,以維護根本原則的名義,美國人為什麼要相信你,一個私營公司的首席執行長,來做這些決定,而不是相信聯邦政府呢?Amodei: 對此,我將給出兩個回答。第一,我們是一家私營公司,是的。我們可以選擇出售或不出售任何我們想要的東西。還有其他提供商。如果國防部(DOW),不喜歡我們提供的服務或者我們提供服務的方式,他們可以選擇使用另一家承包商。這本該是處理此事的正常方式,我只想說,我本來會表示反對,但如果他們說,國防部,我們不想與Anthropic合作,我們的原則與你們不一致,我們將選擇其他模型,我也會尊重他們的決定。但他們(指某些實體)將這種做法延伸到了國防部以外的政府部門,並試圖懲罰性地撤銷我們超越國防部的合同,而且他們還做了這個供應鏈指定的事情,這基本上意味著,如果你是一家擁有軍事合同的私營公司,你就不能在涉及這些軍事合同的方面使用Anthropic。所以他們正在干預私營企業的行為。而且很難將此解釋為除懲罰性行為以外的任何其他方式。據我們所知,供應鏈指定從未應用於一家美國公司。它只應用於,像卡巴斯基實驗室這樣的對手,那是一家被懷疑與俄羅斯政府有牽連的俄羅斯網路安全公司,中國晶片供應商,被和他們歸為一類,考慮到我們為美國所做的貢獻,這感覺非常具有懲罰性和不恰當。國家安全所做的。技術指數級增長與長期願景主持人: 所以你說你為美國做了這麼多。國家安全做出了貢獻,你遵守了你想堅持的這兩項限制。你認為 Anthropic 在這裡比五角大廈更瞭解情況嗎?Amodei: 我們不看,自由市場和自由企業的一個特點是不同的參與者可以在不同的原則下提供不同的產品。請記住,這不僅僅是關於使用條款。這不僅僅是關於,這是我們的模型在法律上被允許做什麼。我們的模型具有個性。它能做某些事情。它能可靠地做某些事情。它不能可靠地做某些事情。我想我們是。一個很好的判斷者,知道我們的模型能夠可靠地做什麼,不能可靠地做什麼。而且我認為我們確實對這項技術如何再次超越法律有很好的認識。但我會說,我再說一遍,我實際上同意你的觀點,這在長期來看是站不住腳的。我不認為正確的長期解決方案是讓一家私營公司和五角大廈就此事爭論不休。我認為國會需要在此採取行動。我們正在考慮這個問題。我們正在考慮國會可以採取那些措施來實施一些安全護欄,這些護欄既不阻礙我們擊敗對手的能力,但又能以符合中國價值觀的方式擊敗我們的對手。但如您所知,國會的行動速度很慢。不。我認為在此期間,我們需要劃清界限。主持人: 在國會採取行動之前,您是說您會堅守立場嗎?但是,還有很多其他公司與美國做生意。波音公司為美國製造飛機。波音公司不會告訴美國。軍隊如何使用這些飛機。這有什麼不同?Amodei: 我再說一遍,它在兩個方面有所不同。首先,我希望再次指出,這項技術是新穎的,當一項技術已經成熟穩定後,那麼,我指的是,關於飛機有很多技術性的東西。但是,我認為,一位將軍對飛機的運作方式有相當好的理解。飛機已經存在很長時間了。主持人: 但是航空航天工業內部仍然有大量的創新。Amodei: 當然,但速度不是,不是我們看到人工智慧那樣的速度。人工智慧發展得太快了。我經常談到人工智慧是如何處於指數級增長趨勢上的。每一個,這些模型,用於這些模型上的計算量每四個月翻一番。我們從未見過如此快的創新速度。主持人: 但是如果這種速度繼續保持下去,那麼美國政府永遠追不上。那麼,如果你長期主張希望與美國合作,這種邏輯如何適用呢?政府來提供,適當的國家安全保障?如果對於可預見的未來,發展如此迅猛,國會都追不上,那為什麼還要對此避而不談呢?Amodei: 我認為只有一次追趕的機會。所以技術的發展速度很快。出現的問題數量很少,但卻非常重要。再說一次,我們只有兩個這樣的問題。主持人: 國內大規模監控,全自動武器。Amodei: 我們需要與國會進行對話,以幫助他們理解其中伴隨的一些風險。再說一次,這是世界上最美國化的事情。沒有人希望被美國監視。沒有人希望被美國監視。政府。競爭壓力下的價值觀博弈主持人: 與此同時,我們一些最主要的對手擁有的技術要麼正在迅速趕上我們,要麼最終會趕上我們,甚至可能已經趕上了。因此,如果我們的軍隊對於保衛美國人民、對於我們的民主、自由和共和國至關重要,我們為什麼要固守這個立場,說不,我們不打算合作呢?Amodei: 再說一次,這是一個抽象的論點,但讓我們看看實際的兩個用途。國內的大規模監控並不能幫助美國追上它的對手。國內大規模監控,是對政府權力的濫用,即使在技術上是合法的。所以我們可以排除這一點。全自動武器,在那方面,我實際上擔心我們可能需要跟上。它,不是,技術。技術還沒有準備好。因此,正如我所說,我們並非完全反對全自動武器。我們只是認為可靠性尚不具備,我們需要就監督問題進行對話。我們曾提議與國防部合作,在沙盒環境中幫助開發和試制這些技術,但他們對此不感興趣,除非他們從一開始就可以隨心欲地做任何事。再說一次,我們需要平衡生存的需要。沒有人比我更強調擊敗我們的對手,但我們需要戰鬥,我們需要以正確的方式戰鬥。這就像是說……有很多國家和對手。如果我們的對手犯下戰爭罪行,我們難道也應該犯下戰爭罪行嗎?我不是說這等同於戰爭罪行。我說的是,我們價值觀的精髓在於我們必須找到一種獲勝的方式。以一種維護這些價值觀的方式。我們不能只是徹底地走向低谷。我們必須有一些原則。而這些原則非常少。這項技術可以從根本上加速我們軍隊所能做到的事情。我與海軍上將、將軍們交談過,也與作戰指揮官們交談過,他們說,這徹底改變了我們能做的事情。而這些僅僅是我們迄今為止部署的非常有限的使用場景。那麼,為什麼我們要執著於那些違背我們價值觀的1%的使用場景,而我們可以追求那99%的、符合我們民主價值觀並保衛這個國家的使用場景呢?我們甚至可以嘗試研究那最後的1%的使用場景,以瞭解是否有方法能以符合我們價值觀的方式來執行它們。這就是我們的立場,我認為這是非常合理的。主持人: 給我一兩個可能出現的情況的例子。出錯。Amodei: 我們可能會想像出現問題的這類事情,主要有兩種類型。第一種,再次提到,是關於可靠性的問題,也就是它目標錯誤的人,擊中平民,無法展現出人類士兵應有的判斷力。友軍火力誤傷或射擊平民,或者就是其他錯誤的事情。我們不想銷售我們認為不可靠的東西,我們也不想銷售可能導致我們自己人或無辜的人喪生 殺害 的東西。第二點是關於監督的問題。如果你仔細想想,對於人類士兵來說,有一整套問責制,其前提是人類會運用他們的常識。假設我有一支由 1000 萬架無人機構成的軍隊,它們都由一個人或一小部分人協調。難道你看不出那裡存在問責制問題嗎,那種將權力集中到如此程度的做法是行不通的。這並不意味著我們不應該擁有這支部隊。再說一次,我不知道。也許在某個時候我們需要它,因為我們的對手會擁有它。但我們需要就問責制、誰掌握著按鈕以及誰可以說了算進行一次對話。我認為這是非常合理的。中立與愛國立場主持人: 川普總統稱Anthropic是一家左翼的“覺醒”公司。這個決定是否受到意識形態的驅動?看,我無法代表其他各方在做什麼,我無法代表其他方在做什麼。Amodei: 在做以及他們在做什麼。但是你,而我們在這裡,在Anthropic。看,我們,我認為,一直努力保持非常中立。我們在我們擁有專業知識的人工智慧政策問題上發聲。我們不對一般的政治問題持立場,我們也不考慮一般政治問題,只要有共同點,我們就努力合作。例如,我曾和總統、和麥康奈爾參議員一起在賓夕法尼亞州參加了一個關於能源供應的活動。為我們的人工智慧模型在美國的部署提供足夠的能源。我與總統談了話。我表示我同意他所做的許多方面。我們還就,利用人工智慧促進健康做出了承諾。我們還做了許多其他事情。當政府的人工智慧行動計畫出台時,我們表示其中許多方面,也許是大部分方面,我們都表示贊同。所以這種認為我們黨派化或者沒有做到一碗水端平的想法是錯誤的,我們一直以來都是審慎地做到了一碗水端平。再說一次,我們無法控制別人,即便是總統,對我們有什麼看法。那不是我們能控制的。我們能控制的是,我們可以保持理性,我們可以保持中立,我們可以堅持我們的信念。主持人: 從一到十,是否能與聯邦政府達成一致?關於這個在未來呢?還是你認為這已經結束了?Amodei: 聽著,我沒有水晶球。就我們而言,我們的立場是明確的。我們有這兩條紅線。我們從第一天起就設定了這些紅線。我們仍然,我們仍然在倡導這些紅線。我們不會在這些紅線上讓步。如果我們能與部門達成一致,如果我們能以相同的方式看待事物,那麼也許可以達成協議。主持人: 就我們而言,並為了美國的利益國家安全,我們,我們繼續希望讓這件事奏效。Amodei: 但是,再說一次,達成協議需要雙方共同努力。主持人: 如果你現在,今晚,有機會和總統談談,你會對他說什麼?Amodei: 我再說一遍,我們是愛國的美國人。我們所做的一切都是為了這個國家,為了支援美國。國家安全,我們正積極主動地向軍方部署我們的模型。所做的一切都是因為我們相信這個國家。我們相信要擊敗我們的專制對手。我們相信要保衛美國。我們劃定的紅線,劃定它們是因為我們相信越過這些紅線違背了美國價值觀。我們希望捍衛美國價值觀。而我們卻遭到了以供應鏈指定和《國防生產法》相威脅,這些都是政府對私營經濟前所未有的干預。我們行使了我們經典的憲法第一修正案賦予的權利,即公開發言並反對政府。反對政府是世界上最美國的事情。我們是愛國者。在我們所做的一切事情中,我們都捍衛了這個國家的價值觀。危機應對與法律挑戰主持人: 你認為Anthropic作為一家企業能夠挺過這次危機嗎?當總統,當赫格斯部長,塞斯發佈了關於供應鏈的指定推文時。他說了一些不精準的話,這遠遠超出了他們的法定權力範圍。他說任何有軍事合同的公司都完全不能與Anthropic做生意。法律上並非如此規定。我們發佈了一份聲明,指出了法律的規定。法律所說的只是,作為其軍事合同的一部分,任何公司都不得將 Anthropic 用於這些軍事合同。這是一個非常,一個影響範圍要小得多的情況。主持人: 那麼您對 Anthropic 能否挺過這一關感到有信心嗎?不僅是挺過,我們會過得很好。Amodei: 這一禁令的影響相當小。現在,這位部長發布推文的性質是為了製造不確定性,是為了製造一種讓人們相信影響會大得多的情況,是為了製造恐懼、不確定和疑慮。但我們不會讓其得逞。我們會過得很好。主持人: 批評人士稱五角大廈和白宮的做法是一種權力濫用。您是否認為這是一種權力濫用?Amodei: 我再次回到這個觀點,即這是前所未有的。主持人: 但這是否是濫用權力呢?Amodei: 這種情況以前從未發生過。這種指定從未對一家美國公司使用過。而且我認為他們在一些聲明、一些措辭中已經說得很清楚了,這是報復性的和懲罰性的。我不知道,我不知道還能稱之為別的什麼,報復性和懲罰性的。Amodei: 那麼你們會採取法律行動嗎?我們,我們,我已經聲明了,我們在聲明中已經聲明了。再說一遍,我們收到的只是一個推文。我們還沒有收到實際的供應鏈設計,政府還沒有採取任何實際行動。剛剛有一些推文,說了他們將要做什麼,說了他們聲稱將要做什麼。主持人: 你們沒有收到任何正式的。資訊嗎?Amodei: 我們完全沒有收到任何正式資訊。我們所看到的只是總統的推文以及赫格薩部長的推文。當我們收到某種正式行動時,我們將進行審查,我們將理解它,並將在法庭上對其提出質疑。主持人: 如果這就是他們與你們溝通的方式,你們認為這說明了他們在處理重大國家安全問題方面的能力如何?Amodei: 再說一次,我不想把這件事變成針對這個特定政府的討論。我不想把這件事變成針對特定個人的討論。我們正在盡我們所能支援美國的。國家安全。這就是為什麼我們致力於努力達成一項協議。如果我們找不到協議,這也是我們致力於以一種平穩的方式完成業務交接的原因,以便在我們的作戰人員進入衝突時,他們能夠繼續得到支援。這也是我們致力於採取我們認為不符合本國價值觀的行動的原因。這不關乎任何特定個人。這不關乎任何特定政府。這是關於維護正義原則的問題。主持人: Anthropic首席執行長達里歐·阿莫代。非常感謝您。Amodei: 非常感謝您的邀請。謝謝。 (Web天空之城)
【上】Anthropic CEO 深度訪談:為什麼 2027 年是人類的最後一道門檻?
關於 AGI(通用人工智慧)的預測,市面上充斥著兩種極端:一種是線性的悲觀,認為“摩爾定律已死”;一種是盲目的狂熱。 Anthropic CEO Dario Amodei,這位物理學博士出身的“實幹派”,提供了一個基於資料的第三種視角。他認為,我們正處於指數級增長的尾聲——不是因為增長停滯,而是因為終點已近。 這個終點,也就是他口中的“資料中心裡的天才國度”,最早將在 2026 或 2027 年 到來。我們將用三篇文章來為大家詳細解讀。01 定義終局:“資料中心裡的天才國度”在長達 3 小時的訪談中,Dario 拒絕使用模糊的 AGI 概念,而是給出了一個工程學上的精確定義:“Country of Geniuses in a Data Center”(資料中心裡的天才國度)。這不僅是能通過圖靈測試的聊天機器人。Dario 描述的是這樣一個系統: 它在雲端 7x24 小時運行,擁有成千上萬個獨立的智能體。每個智能體的能力都等同於人類頂尖專家——無論是寫程式碼、做數學推理,還是設計複雜的生物實驗。他的時間表非常具體: 在排除“不可約減的不確定性”後,他認為在 2026 年或 2027 年 實現這一願景的機率極高。他甚至直言,認為 2035 年還實現不了是“瘋狂的”(Crazy)。02 暴力美學的勝利:“大計算團”假說為什麼他如此確信?這並非盲目信仰,而是基於他在 2017 年撰寫的內部檔案《大計算團假說》(The Big Blob of Compute Hypothesis)。核心邏輯簡單得令人髮指:別整那些花哨的技巧,只管堆料。 只要集齊以下幾個要素,模型就會通過“縮放定律”自動變強:原始算力(Raw Compute)海量資料(Quantity of Data)訓練時長可擴展的目標函數(Objective Function)七年來,從 GPT-1 到 Claude 4.6,行業的發展從未偏離這個假設。現在,強化學習(RL)也被納入了這個公式。就像 AlphaGo 自我博弈一樣,現在的語言模型正在通過“思考”(Chain of Thought)進行自我強化。03 五十億美元的豪賭:在這個牌桌上,不敢梭哈就是死預測未來很容易,但用身家性命去押注很難。Dario 揭示了 AI 巨頭們面臨的真實財務困境——這是一場關於“提前量”的俄羅斯輪盤賭。訓練一個前沿模型需要數年時間建設資料中心。這意味著 CEO 必須在今天決定 2027 年的算力採購量。買早了(模型能力沒跟上): 每年數十億美元的折舊會瞬間擊穿現金流,公司破產。買晚了(模型如期爆發): 當“天才國度”降臨時,你手裡沒有算力去承接潑天的需求,直接出局。Anthropic 的策略是“激進但留有緩衝”。他們在賭指數級增長會持續,賭那個“天才國度”會如期而至。這解釋了為什麼即便當前 AI 變現尚處於早期,矽谷的資本支出(Capex)依然在瘋狂飆升——因為在通往終點的最後一公里,誰也不敢減速。 (大尹隱於網)
【達沃斯論壇】碼農只剩6個月?Anthropic CEO斷言AI接管一切程式碼,爆沖諾獎級智能!
達沃斯論壇,AI兩大巨頭罕見同台,開啟一場關於AGI未來重磅對話。Dario Amodei驚人預測:AI全面取代軟體工程師,最快只需6個月!同時,一半初級白領崗未來1-5年全部消失。達沃斯這個全球大佬扎堆的地方,Anthropic和GoogleDeepMind CEO再次同框。這一次,他們坐在一起聊的是一個讓人既興奮又發怵的話題——AGI降臨之後的第一天。與去年巴黎那次不同,他們的預期裡都帶著點「真的快來了」的緊迫感。半個小時爐邊對話中,Dario Amodei扔出了一枚震撼所有人的「核彈」——AI端到端接管軟體工程師(SWEs)幾乎全部的工作,倒計時僅剩6-12個月了!同時他還爆出,Anthropic內部工程師基本不手寫程式碼了,全由AI操刀,人類只負責審查和引導。Dario Amodei和Demis Hassabis幾乎同時承認,通往AGI的路,已經看得越來越清楚了。隨著模型參數規模不斷Scaling、多模態越來越強、智能體越來越自主——這些疊加在一起,AGI逼近僅剩時間問題。以下是訪談的主要亮點,核心觀點全在這裡——Dario Amodei:2026年/2027年,AI模型會在多領域達到「諾獎級」水平;一到五年內,50%白領工作消失AI寫程式碼 -> 更好的AI -> 更快的迭代,這個循環正加速閉合Anthropic三年收入百倍暴增,呈指數級增長如果AI寫AI能完美閉環,將迎來奇蹟般的極速爆發Demis Hassabis:本年代末(2030年前)有50%的機率實現AGI短期有陣痛,但長期會誕生新工作,AI取代人類時間線拉長至3-5年GoogleDeepMindAI已找回創業狀態,重奪行業領先地位如果物理世界/硬體成為瓶頸,發展曲線將更平緩,需給人類留出更多的適應時間兩大巨頭激辯AGI,AI自進化閉環關於AGI何時降臨,兩位大佬給出了各自的預測。Dario Amodei不僅是激進,簡直就是「狂飆」。即便站在2026年的門檻上,他依然篤定地押注:到2026年或2027年,必將誕生在眾多領域達到「諾獎級」水平的模型。「我認為結果不會偏離太遠」。他的底氣,源自一個正加速閉環的「循環」,一個設想的機制是——AI自己寫程式碼 → AI自己搞研究 → 完全自我迭代的閉環。Dario拋出了一個令AI圈震動的判斷:一旦這個正反饋環真正跑順,研發速度會直接起飛,指數級衝刺。相較於Dario的激進,Demis Hassabis的立場相對穩健,但幾乎也沒有後退。他守住了去年的底線:本年代末(2030年前),將有50%的機率實現AGI——展現人類全部認知能力的AI。為何比Dario保守?Hassabis指出了一個無法被程式碼輕易踰越的「物理屏障」。過去一年,程式設計和數學領域發生了顯著的變化,但自然科學自動化進展完全是另一回事。它需要真實世界的實驗驗證,恰恰這個環節,AI暫時還無法實現「閉環」。Hassabis表示,更難的部分在於科學創造力的層面。GoogleDeepMind最終會創造出AGI,不過目前還缺少一兩個「關鍵拼圖」。這裡,他提到了一個關鍵的變數——自我進化閉環,能夠在沒有人類深度參與的情況下真正跑通。如果這個閉環真正形成,進展速度會遠超當前預期。AI取代「所有」程式設計師Dario舉了一個最直觀、也最令人背脊發涼的例證——Anthropic內部工程師已經幾乎不自己寫程式碼了。他們現在的角色,更像是產品經理或架構師。也就是,只負責提出需求、編輯模型生成的程式碼、把控整體架構。在Dario看來,我們離模型「端到端」完成軟體工程師絕大部分、甚至全部工作,可能僅剩6-12個月。這裡所說的「端到端」意味著什麼?在英文語境中,SWEs(Software Engineers)不僅僅是寫程式碼的人,而「端到端」涵蓋了一個軟體產品的全生命周期:需求、設計、前端、後端、部署、測試等等……如此看來,Anthropic已經率先實現的了軟體開發的AGI(畢竟他們的員工擁有一個無限額度的Claude)。為了量化這種能力,我們來看一下SWE-Bench(軟體工程基準測試)。這是一個評估模型在真實GitHub程式碼庫中定位問題、跨檔案修改、跑通測試並交付CI補丁能力的「實戰考場」。原始集約2,294個任務,常引用的Verified版本是經OpenAI人工標註簡化的子集。在標準的Bash Only環境中,Claude 4.5 Opus的解決率已達74.4%,而每道題目的成本僅為0.72美元。在這些問題中,我們可以將難度細分為:簡單任務(<15分鐘):約196個任務,類似給函數加入斷言等簡單修改中等任務(15分鐘-1小時):需要一定時間思考的小規模改動困難任務(1-4小時):涉及函數或多檔案的實質性重寫超難任務(>4小時):需要大量研究,改動100+行程式碼的深奧問題如果我們把SWE-Bench的難度對應到現實世界的科技大廠職級,情況更加觸目驚心:簡單到中等任務(<1小時)相當於初級工程師水平(Junior/SDE1)。相當於:GoogleL3、阿里P5-P6、字節1-1/1-2等級,工作0-3年經驗困難任務(1-4小時)相當於中高級工程師水平(Senior/SDE2-SDE3)。相當於:GoogleL4-L5、阿里P6-P7、字節2-1/2-2等級,工作3-7年經驗。這些任務就不僅僅是單檔案修改,需要跨檔案修改,平均改動32.8行程式碼,涉及1.7個檔案。而超難任務(>4小時)則資深/專家工程師水平(Staff+)。相當於:GoogleL6+、阿里P7-P8、字節3-1等級及以上。目前頂級AI模型想要解決這類問題也非常困難。儘管目前頂級AI模型在面對這些「超難任務」時需要極其複雜的上下文理解和架構設計才能解決的問題——AI還顯得有些力不從心。但別忘了Dario那個令人感到驚訝的預判:6-12個月。當「AI寫AI」的飛輪開始瘋狂轉動,從L3進化到L6,可能只需要幾次模型迭代的時間。那道曾經被認為不可踰越的「專家級」護城河,正在以肉眼可見的速度乾涸。五年內,50%初級崗消失當技術飛輪轉動時,被碾壓的是舊有的就業結構。Dario曾預測未來1-5年內,一半初級白領工作將消失,主持人則表示,現有統計顯示,目前勞動力市場尚未明顯波動。她反問道,這是否只是「勞動總量固定謬誤」,AI最終會創造更多新崗位?Hassabis認為,短期內,確實會看到AI創造出新的崗位。舊工作消失,新工作湧現,且更有價值、更有意義。而且,他深刻感受到,初級/入門級崗位、實習招聘都在放緩。但Hassabis鼓勵年輕人,要極度熟練掌握當下AI工具。即便是建構模型的人,也很難完全探索當下模型的「能力懸溢」(capability overhang),更不用說未來的了。我認為這可能比傳統的實習更能讓你在專業領域中發揮作用,實現自我飛躍。Demis Hassabis他強調,AGI真正到來後,一切進入未知領域。Dario Amodei同樣沒有給出一絲安慰,依舊撕開了2026年殘酷的真相:未來1-5年內,一半初級白領工作消失。1-2年內,我們可能擁有全方位超越人類的AI。現在,他看到苗頭了——尤其在軟體和程式設計領域。Anthropic內部已經顯現:初級和中級崗位需求銳減,公司正在嚴肅思考如何人性化處理裁員和轉型。他承認,歷史上有適應性,農業自動化後,80%農民轉為工廠工人,再轉為知識工作者。但這一次真的不同,指數級增長複利太猛,人類社會的適應速度根本跟不上。滯後效應可能讓就業衝擊來得晚一些,但一旦爆發,降壓到一切。對於更長遠的未來,Hassabis拋出了關於「意義」的終極追問:在一個後稀缺的世界裡,當工作不再是必須,人類將如何尋找存在的意義?也許是探索星空,也許是藝術,也許是極限運動....但這將是比經濟分配更難解決的哲學問題。GoogleDeepMind反擊OpenAI Anthropic收入暴增百倍過去的一年,AI競賽的「座次排位」發生了劇烈震盪。一年前,行業曾因「DeepSeek時刻」而興奮,當時GoogleDeepMind似乎顯得有些落後。面對質疑,Demis坦承這是「不平凡的一年」,但他自信地表示,DeepMind擁有最深厚的研究儲備,正在通過Gemini 3等模型重回榜首。他們正把GoogleDeepMind當作「核心引擎室」,加速把前沿模型推向產品介面。而站在另一邊的「獨立模型製造商」Dario,則展示了令人咋舌的增長曲線。過去三年,Anthropic的收入經歷了指數級暴漲:2023年:從0到1億美元;2024年:從1億到10億美元;2025年:從10億到100億美元。Dario表示,這聽起來很瘋狂,我們在試圖白手起家做一件與世界最大公司規模相當的事情。他特別提到,Anthropic和GoogleDeepMind有一個共同點:兩者都由研究驅動,把解決重大科學問題作為北極星。這種公司形態,才是未來勝出的關鍵。費米悖論終極哲學對話的最後環節,主持人拋出如今AI模型飽受詬病的問題——欺騙、兩面派的能力。Dario Amodei表示,從Anthropic成立第一天,團隊就深陷這個戰場,開創了「機制可解釋性」。過去一年,他們記錄了更多不良行為,也在用可解釋性拚命修復。他堅定表示,風險是存在的,但也是可解的。Demis Hassabis同樣堅信,這是「非常可解」的問題,只要給人類智慧足夠時間、專注和合作,我們就能過關。QA環節中,一位來自太空資料中心公司的觀眾拋出了著名的「費米悖論」:既然宇宙這麼大,為什麼我們還沒看到外星人?是不是因為所有高等文明都被自己的AI毀滅了?Demis直接反駁道,如果是AI毀滅了外星文明,我們應該看到宇宙中到處飛舞著「回形針」或者巨大的戴森球結構,但我們什麼都沒看到。他更傾向於認為,人類已經通過了「大過濾器」,未來依然掌握在人類自己手中。當主持人Zanny詢問明年再見時會有什麼變化時,兩位巨頭的回答殊途同歸。Dario和Hassabis觀點一致:最關鍵變數是「AI建AI」的閉環。不僅如此,Hassabis還期待著自我進化之外的其他突破:世界模型、持續學習,以及機器人技術的爆發時刻。也許全人類都該暗自希望Hassabis是對的,希望那條時間線能慢一點,好讓我們有喘息的機會去迎接那個徹底改變一切的「第二天」。然而,Dario眼神中透出的焦慮,卻揭示了殘酷的真相:在通往AGI的賽道上,「減速」從來不是一個可選項。達沃斯的這場對話,與其說是一場觀點的交鋒,不如說是一次同步的預警。無論是Dario激進的2026,還是Hassabis穩健的2030,那個終點已經清晰可見。AGI降臨的第一天,不再是科幻小說裡的模糊概念,而是矽谷大佬日曆上正被圈出的具體日期。 (新智元)
Anthropic CEO再預警:未來5年砍掉一半入門崗,失業率10–20%
資料顯示,僅2025年開年以來,美國已有超過一萬個崗位因為引入AI而被裁撤。Anthropic CEO Dario Amodei認為AI技術的擴散對就業和社會的衝擊,已經到了必須向全世界預警的地步。如果你現在正在找工作,那AI簡直就是個壞消息。短短幾個月裡,美國科技公司和政策層對「AI如何影響就業」的討論,突然顯得直白又冷酷:「AI將帶來企業重組,這意味著更少的崗位,更多的裁員。」「是繼續花錢請工程師,還是乾脆多買幾塊GPU來搞AI,企業需要做出抉擇。 」不少科技大佬也公開承認,一些崗位會更快被機器承擔,應屆生步入職場的入門級崗位也在不斷減少。比如,Anthropic CEO Dario Amodei就再次重申了他之前的觀點:未來五年內,最多一半的入門級辦公室崗位可能被淘汰,並可能把失業率推至10%–20%。AI重組企業帶來更少崗位和更多裁員華爾街所追捧的「更少的工人、更多的算力與軟體」的AI故事,背後的真相,其實是日益減少的崗位,以及接連不斷的裁員。比如,Reddit上就有人質疑:高管們對媒體吹AI,只是為了用它來做裁員的擋箭牌。耶魯管理學院教授Jeffrey Sonnenfeld認為「AI警告」具有「疫苗效應」,它可以幫助CEO為未來裁員鋪墊敘事,不至於讓員工太震驚。不可否認,現實中有這方面的因素,但不少科技大佬更喜歡用的的一個詞是——企業重組。在近期紐約的一場科技峰會上,多位CEO都談到了它:「要以技能和能力為核心重新定義員工體系,而不是單純按人頭來配置」。在新組織架構中,中層管理崗位可能會減少,層級更扁平,變為頂端與底層兩頭多,中間少的「槓鈴型」組織。所謂企業重組,潛台詞就是更少的崗位,更多的裁員。用Altimeter Capital合夥人Apoorv Agrawal的話來說,企業將面臨如下抉擇:是繼續花錢請工程師,還是乾脆多買幾塊GPU來搞AI。而且,隨著AI的滲透,企業還將迎來更多結構調整,AI公司也成為AI重組的重要策源地之一。Amodei提到在Anthropic內部,許多人過去一年的工作已經發生了巨大變化:這不僅體現在他們產出是之前的兩到三倍,也體現在他們的工作內容上。他們不再是寫程式碼,而是在管理一整套AI系統。由於這些變化,他們需要重新思考在Anthropic的角色。在Amodei看來,這些發生在AI公司內部的變化,未來幾年也會發生在所有使用AI技術的其他企業身上,「更直白地說,只要公司有為股東創造價值的受托責任,能用技術提升生產力,他們就會用。」據獵頭機構Challenger月報顯示:僅2025年至今,美國已有超過一萬個崗位明確因為AI被引入而被裁撤。比如,Salesforce CEO馬克·貝尼奧夫就曾公開宣稱:支援團隊崗位從約9,000人降至5,000人,部分工作由AI代理承擔。Salesforce CEO Marc Benioff表示,客戶支援部門的AI代理正在取代人類崗位那些崗位將最快被AI衝擊?奧特曼近期曾多次表示,客服/技術支援將最早被替代,隨後可能波及程式設計師。他還預判崗位更替周期將被顯著壓縮。初級白領崗位受衝擊最劇烈,有資料顯示:自2023年1月以來,入門級職位的招聘減少了35%,大型科技公司和成熟初創公司中,少於1年工作經驗的新員工入職率在2019年至2024年間下降了50%。在近期的一次AI科技峰會上,Anthropic CEO Dario Amodei再次重申了他之前的觀點:未來五年內,最多一半的入門級辦公室崗位可能被淘汰,並可能把失業率推至10%–20%。受影響方向包括法律、金融、諮詢等。Brookings學者Mark Muro轉述Amodei觀點:入門白領50%或被淘汰,失業率或達10–20%。9月份,聯準會主席Jerome Powell在談到AI對就業的影響時提到,AI可能減少入門級崗位,衝擊應屆大學畢業生的就業市場。從企業來看,因為對AI的過度追求,而忽視了初級崗位,這也是一種短視行為:一方面,很多AI技術還不能賺錢,也有不少嘗試採用AI的公司最終都放棄了,這說明AI還沒真正成熟,遠沒到可以完全充當「AI員工」的時候。但更為根本的是,如果企業不再招聘年輕人進入初級崗位,眼前可能省了成本,但長遠來看卻會吃大虧,因為等於放棄了將組織經驗和知識傳承給下一代的機會。倫敦政治經濟學院經濟學家Luis Garicano就批評AI自動化初級任務,摧毀了未來專家的「培訓基地」,企業將面臨「後繼無人」的挑戰。如何應對AI的崗位大清洗?AI將會大規模衝擊就業市場,在美國政府和科技界已經達成共識。但在如何應對這場就業風暴,各方並沒有一致的看法。在近期的「Axios AI+ DC」峰會上,Dario Amode與在場多位政商代表就如何應對AI對就業的衝擊問題,同台交鋒。各方爭議指向一個重要問題:美國政府要不要出手為勞動者托底?怎麼托,托到那一步?這也是未來幾年美國政府最具影響力的關鍵決策之一。Dario Amodei是「預警派」。他再次拋出前文提到的AI可能引發「白領大裁員」的預測,他認為目前AI快速發展引發的就業危機,已經到了向世界發出預警的程度。「我們是技術樂觀主義者,我們認為這項技術前進的速度遠比大多數人預想的要快。」Amodei認為當前比較重要的事情,是幫助人們適應AI技術。他建議美國政府出面解決問題,尤其是在轉型過渡期為大家提供兜底政策,他還提議可以考慮對AI公司徵稅。白宮經濟顧問Jacob Helberg與Amodei不同的是,白宮經濟顧問Jacob Helberg並不認同這套預警邏輯,他更相信通過私營部門推動就業市場的適應轉型。「認為政府必須手把手幫助每一位被裁員的人,這其實是低估了人們的應變能力,那種自上而下、政府全權解決一切的思路,其實也低估了私營部門強大的適應力和創造力。」Jacob的意思是不要把政府當保姆,也別低估人的應變能力,以及企業的創造力。在兩種對立觀點之間,還有一種中間路線:比如新建公共就業服務機構,為年輕人提供就業機會;或者由科技公司出錢設立公共「信託基金」,對勞動者進行技能提升和再培訓。其實,幫助勞動者對AI公司也有好處:如果大家都沒工作,他們的客戶也就不存在了。在AI浪潮之中,需要的是整個社會的共同進化,沒有誰可以獨善其身。 (新智元)
Anthropic CEO最新採訪:AGI一詞毫無意義、點名祖克柏、談開源、家庭……等八個非共識觀點
Anthropic CEO Dario Amodei在最新採訪中指出:AGI這個詞毫無意義,只是為了刺激多巴胺而已。在介紹訪談內容之前,我們先來再次回顧這位AI 領域關鍵人物的獨特職業軌跡:2014年11月至2015年10月,Dario在百度美國研究院(SVAIL)擔任研究科學家,在吳恩達領導下推進了Deep Speech 2項目——這個端到端的中英文語音識別系統後來被MIT Technology Review評為2016年「十大突破性技術」之一。離開百度後,Dario短暫加入Google,隨後在2016年進入OpenAI。在OpenAI期間,他從研究員一路升至研究副總裁,主導了GPT-2、GPT-3的開發,並推動了RLHF(從人類反饋中強化學習)這一關鍵技術路線。2021年1月,他與妹妹Daniela Amodei及多位前OpenAI同事共同創立了Anthropic,擔任CEO至今。在這次長達一小時的深度對話中,Dario分享了對AI發展的八個核心觀點:AGI和ASI都是空洞的行銷概念Dario毫不客氣地指出,業界熱衷討論的AGI(通用人工智慧)和ASI(超級智能)完全沒有意義。「我不知道AGI是什麼,我也不知道超級智能是什麼」,他說這些術語就像是「專門設計來啟動人們多巴胺的東西」。當其他公司CEO宣稱「我們已經實現AGI,正在邁向超級智能」時,Dario認為這純粹是行銷話術。相比追逐這些模糊的概念,他更關注實實在在的具體技術進步。年虧30億美元是投資,不是損失面對Anthropic今年預計虧損30億美元的質疑,Dario給出了其解釋:他把每個AI模型比作一個獨立的投資項目,假設2023年花1億美元訓練的模型,在2024年能帶來2億美元收入;2024年花10億美元訓練的模型,2025年能產生20億美元收入。「看起來公司每年都在虧損,但如果把每個模型看作獨立投資,其實都是盈利的」。訓練下一代模型的巨額成本,本質上是對未來的投資。開源?使用者只在乎誰更好用當被問及開源AI的影響時,Dario的回答也一樣犀利。他認為「開源」在AI領域的作用被高估了。與傳統軟體不同,AI模型即使開源也看不到內部運作機制,所以叫「開放權重」更準確。「我不在乎DeepSeek是否開源,我只問:它是不是個好模型?在某些任務上是否比我們做得更好?」使用者最終選擇的是效果最好的產品,而不是最開放的產品。怎麼講,有些李廠長的影子……職級不是談判籌碼Dario透露,他知道很多Anthropic員工收到了Meta等公司的天價挖角offer。但Anthropic的應對方式很特別:不搞競價戰。「我們有一套職級體系,候選人進來就被分配到相應等級,我們不談判」。他在公司Slack上明確表示,Anthropic不會為了留人而破壞薪酬公平原則。結果是,相比其他公司,Anthropic被挖走的人反而更少——很多人直接拒絕了Zuckerberg的天價邀請。200億美元 vs 1000億美元Anthropic的增長速度驚人:2023年從0到1億美元,2024年從1億到10億美元,2025年預計從10億增長到45億美元。Dario稱這是軟體公司歷史上這個規模下最快的增長速度。當被問及如何用200億美元與OpenAI的1000億美元競爭時,他的答案是:人才密度。「投資者理解資本效率的概念。我們能用更少的錢做出同樣好甚至更好的東西」。押注企業市場,而非消費者與Google整合Gmail、OpenAI主推ChatGPT不同,Anthropic 60-75%的收入來自API。雖然也有面向消費者的Claude應用,但公司的核心戰略是服務企業客戶。「我們押注的是商業使用場景」,Dario解釋道。這種純粹的技術路線讓Anthropic成為AI基礎設施的關鍵提供商。能力與對齊密不可分談到為什麼離開OpenAI創立Anthropic,Dario強調:AI的能力和安全性無法分開研究。「很難只研究其中一個而忽略另一個」。他認為,真正影響AI發展方向的是組織層面的決策——何時發佈、何時內部研究、如何設計系統。這正是促使他和其他創始人「按自己的方式來做」的原因。家族AI 創業採訪最後,Dario談到了家庭。他特別感謝父母教會他「對與錯的觀念」和「強烈的責任感」。更有意思的是,他和妹妹Daniela從小就很親密,很早就決定要一起工作。「我們沒想到會發展到現在這個規模」,如今兄妹二人共同掌舵Anthropic,書寫著AI領域的家族傳奇。這次採訪展現了一位與眾不同的AI關鍵領導者的形象——他不追逐流行概念,專注技術本質;不打價格戰,堅持原則;不盲目擴張,精準定位。在AI 競賽白熱化的今天,Anthropic正走出一條獨特的道路。
老黃怒懟Anthropic CEO :危言聳聽,自大狂
反感Anthropic CEO人越來越多了,老黃也加入了老黃批評了Anthropic CEO 達里奧·阿莫迪,因其最近聲稱50%的入門級白領工作可能被人工智慧淘汰,導致失業率在未來五年內躍升至20%。在巴黎VivaTech大會上被問及此事,老黃對媒體說他不同意阿莫迪的預測,並表示他“幾乎不同意”那位Anthropic CEO所說的一切Anthropic CEO的言論基本上是在說:“第一,他認為AI非常可怕,以至於只有他們(Anthropic)應該做。第二,AI成本高昂,所以其他任何人都不應該做……以及第三,AI強大到令人難以置信,以至於每個人都會失業,這就解釋了為什麼他們應該是唯一一家建構它的公司,”老黃的基本觀點:“認為AI是一項非常重要的技術;我們應該安全、負責任地建構和推進它。如果你想安全負責地做事,你就應該公開地做……不要在暗室裡做,然後告訴我它是安全的。”老黃也同意一些工作將被淘汰,且幾乎每個職業都會被改變,但他也表示,將會出現更多職位空缺和機會。他相信,隨著公司通過AI變得更具生產力,它們也需要僱傭更多人員來擴大業務Anthropic回應了黃仁勳的言論,並向媒體表示:“達里奧從未聲稱‘只有Anthropic’才能建構安全而強大的AI。達里奧一直倡導為AI開發者(包括Anthropic)建立一個全國性的透明度標準,以便公眾和政策制定者能夠瞭解模型的能力和風險,並做出相應準備。他還對AI的經濟影響表示了擔憂——特別是對入門級工作的影響。達里奧堅持這些立場,並將繼續如此。 (AI寒武紀)
Anthropic CEO :AI 或致千萬白領失業,呼籲對AI公司徵稅
Anthropic的CEO達里奧·阿莫代 (Dario Amodei) 最近公開發聲,直接拉響了警報:人工智慧的飛速發展,可能正把我們推向一場嚴重的就業危機!劃重點,核心觀點先給你拎出來:AI進化神速: 兩年前還是個聰明高中生水平,現在已經是頂尖大學生,未來更是不可估量白領飯碗: 金融、諮詢、科技等行業的入門級白領工作,如文件總結、頭腦風暴、財務報告等,首當其衝危機時間線: 未來1到5年內,就可能看到AI對就業市場的巨大衝擊失業率飆升? 阿莫代擔心失業率可能攀升至10%-20%(當然,他也承認未來難以精確預測)AI“雙刃劍”:潛力無限,風險並存達里奧·阿莫代,打了個比方:兩年前的AI,能力大概相當於一個聰明的“高中生”;而現在,它已經進化到了“頂尖大學生”的水平,並且還在飛速超越。他認為AI潛力巨大,尤其是在他曾從事的生物學領域,AI有望攻克癌症、阿爾茨海默症等頑疾,還能幫助我們獲得更廉價的能源。這些都是妥妥的正面BUFF然而,凡事都有兩面性。正是AI這些強大的技能——比如快速總結文件、輔助頭腦風暴、撰寫財務報告等——讓他夜不能寐。他直言不諱地指出,金融、諮詢、科技行業以及許多類似領域的入門級白領工作,正面臨嚴峻考驗“我擔心這些崗位首先會被AI增強,但很快就會被AI系統取代。”阿莫代表示,“我們可能真的會面臨一場嚴重的就業危機,因為這些早期白領工作的輸送管道正在收縮甚至枯竭。”狼真的要來了?1-5年內見分曉當被問及這場“就業災難”可能何時降臨時,阿莫代給出了一個令人心驚的時間表:“雖然很難預測,但考慮到AI的進步速度,如果我們在1到5年內開始看到巨大影響,我一點也不會感到驚訝。”他還透露,其實很多AI公司的CEO以及其他行業的CEO私下裡都在討論這個問題,但這個資訊似乎並沒有有效地傳遞給普通民眾和立法者。這正是他選擇公開發聲的原因:“我感覺我必須站出來,把這件事說清楚。”AI發展無法剎車,但可以“掌舵”有人可能會問,既然風險這麼大,那我們能不能暫停AI研發呢?阿莫代對此表示,這不現實。“僅在美國,就有六七家公司在從事AI研發,我只是其中一家的負責人。就算我們公司今天停下來,其他公司也會繼續。就算美國所有公司都停了,中國也會趕超我們所以,關鍵不是停下,而是如何“掌舵”。他呼籲議員、立法者和公眾現在就開始認真思考這個問題。如何應對?測量、引導、甚至……徵稅?面對這場潛在的危機,阿莫代和Anthropic公司提出了一些初步的應對思路:首先是“測量”影響: Anthropic推出了一個名為“經濟指數”的工具,試圖追蹤AI對經濟和就業影響的速度和程度引導AI向“增強而非取代”發展: 儘可能地將AI系統設計為輔助人類工作,而不是完全取代人類。但他坦承,這可能只是一個短期方案教育和適應: 幫助勞動者學習如何使用AI,提升適應能力,這非常重要政府出手干預: 這是最核心的部分。阿莫代認為政府需要思考如何行動。他甚至提出了一個頗具爭議性的建議:“找到一種方法來平衡經濟競爭環境,比如……對自己的AI公司徵稅。” (AI寒武紀)